Robotik und Ethik
Keine Vetretung im politischen Prozess
Heute haben die selbstbewussten Maschinen der Zukunft keine Vertretung im politischen Prozess irgendeines Landes. Ihre potenziellen Interessen und Präferenzen werden von keiner Ethikkommission, keinem Rechtsverfahren und keiner politischen Partei auf diesem Planeten systematisch vertreten. Gleichzeitig scheint es empirisch plausibel, dass einige dieser Systeme, sobald sich ein Maschinenbewusstsein entwickelt hat, eigene Präferenzen haben werden, dass sie autonom eine Hierarchie von Zielen erstellen werden und dass diese Zielhierarchie auch Teil ihres phänomenalen Selbstmodells (d. h. ihrer bewussten Selbstdarstellung) werden wird.
Sind Pflegeroboter ethisch vertretbar?
Von einer Maschine hochgehoben, gewaschen, bedient, überwacht und unterhalten werden? Ein Roboter, der Menschen daran erinnert, Tabletten zu schlucken, genügend Flüssigkeit aufzunehmen oder mit ihnen über einen Monitor Gedächtnisspiele spielt? Der Gedanke, im Alter von einem Pflegeroboter betreut zu werden oder Nahestehende maschinell umsorgen zu lassen, ist für viele befremdlich. Dennoch ist die Entwicklung von Pflegerobotern in vollem Gange. Der vorliegende Beitrag behandelt den Einsatz von Pflegerobotern aus ethischer Perspektive und weist dabei anhand konkreter Robotertypen auf Hürden der Pflegerobotik hin. Neben Einwänden wie dem Kontaktverlust thematisiert das Papier unter anderem den Einsatz von Pflegerobotern hinsichtlich der bewussten Täuschung älterer pflegebedürftiger Personen sowie der Menschenwürde. Anhand der vorgebrachten Argumente wird dargelegt, welchen moralischen Ansprüchen Pflegeroboter gerecht werden müssen und wie der Einsatz künstlicher Systeme in einem menschzentrierten Bereich wie der Pflege trotz ethischer Bedenken legitimiert werden kann.
Ist künstliche Intelligenz vertrtbar?
Heute haben die selbstbewussten Maschinen der Zukunft keine Vertretung im politischen Prozess irgendeines Landes. Ihre potenziellen Interessen und Präferenzen werden von keiner Ethikkommission, keinem Rechtsverfahren und keiner politischen Partei auf diesem Planeten systematisch vertreten. Gleichzeitig scheint es empirisch plausibel, dass einige dieser Systeme, sobald sich ein Maschinenbewusstsein entwickelt hat, eigene Präferenzen haben werden, dass sie autonom eine Hierarchie von Zielen erstellen werden und dass diese Zielhierarchie auch Teil ihres phänomenalen Selbstmodells (d. h. ihrer bewussten Selbstdarstellung) werden wird.
Der KI-Ethik-Schwindel
Einige von ihnen werden in der Lage sein, bewusst zu leiden. Wenn ihre Präferenzen durchkreuzt werden, wenn ihre Ziele nicht erreicht werden können und wenn ihr bewusstes Selbstmodell in Gefahr ist, sich aufzulösen, dann könnten sie negative phänomenale Zustände erleben, Zustände des bewussten Erlebens, die sie vermeiden wollen, aber nicht vermeiden können und die sie darüber hinaus als Zustände ihrer selbst erleben müssen. Natürlich könnten sie auch auf eine Art und Weise leiden, die wir nicht begreifen oder uns vorstellen können, und wir könnten sogar nicht in der Lage sein, genau diese Tatsache zu entdecken. Jedes Wesen, das zu Leiden fähig ist, sollte Gegenstand moralischer Überlegungen sein. Außerdem sind wir für die Folgen unseres Handelns ethisch verantwortlich.